接電話先別「喂」!AI仿聲只需3秒 恐成詐騙新招|
HTML-код
- Опубликовано: 6 апр 2023
- AI人工智慧帶來便利,但也成為不肖份子的詐騙工具之一!加州柏克萊大學一位教授就示警,「AI仿聲」只需要短短3秒鐘,就能輕鬆複製聲音進行詐騙,所以提醒大家如果接到陌生來電,千萬不要先開口說話。但真的有這麼嚇人嗎?鏡新聞找了 專門研究AI生成技術的專家來實測,發現英語系國家AI複製聲音,相似度確實高達九成,很難辨識。
(「鏡新聞」已在MOD508台與RUclips頻道同步播出。)
--
鏡新聞RUclips👉reurl.cc/yrypNy
鏡新聞官方網站👉www.mnews.tw/
鏡新聞Facebook👉 / mnewstw
鏡新聞Instagram👉 / mnewstw
鏡新聞Twitter👉 / mnews_tw
鏡新聞Line帳號👉lin.ee/4XsO8xi
鏡新聞APP iOS👉reurl.cc/kqyqML
鏡新聞APP Android👉reurl.cc/Ay2y63
這個詐騙方式真的蠻恐怖的,都不知道對面的人是不是真人
當對方叫你匯款,就考一些只有你跟親人或朋友知道的回憶,不要考簡單的生日,防詐騙大家一起來!
這樣也不錯😅但他們答錯了也不要給他們答案 不然他們會記起來 不用在電話上討論 就硬說回到家在說吧 還是去你家裡討論 他就會掛掉了 就在家等會不會回到家裡 回來了就有答案也就沒事了
好誇張!
恩,我今早接到一通電話,閒聊個一分鐘,下午我家人那裏有人用我的聲音詐騙了,有夠扯
😮😮😮
科技始終來自於人性!所以“機械公敵”在未來真實上演的機率愈來愈高了!
早就有RUclipsr用ai真人聲音
我都會問 你的小名 答不出來就好笑了
在怎麼防範也沒用.壞法律只會製造更多壞人
魔型招術,就知道會來這招
沒有錯啦!😂🎉
以后不知怎么办. 电話, 視頻理財不可以做了.
以後說話多加點特殊語助詞~ 台灣國語那種
除非AI 不知, 要不然一样可以扮你.
已有一堆AI藝人,交叉唱別人歌 詐騙甚至可以使用藝人聲音來騙財騙色
比如說用某個 AI藝人聲音,去交友軟體,找人說要上yt實境節目(目前yt已有很多藝人實境節目頻道),約出來見面時,再說自己是工作人員,藝人本人晚點到場,之類的
看來要注意多加小心防範。
請問這樣子曲譜是不是比較容易了?????
能拿來詐騙的技術發展就會飛速
以後都不用去買譜了,要什麼譜有什麼
好阿黑科際越多防守商機就會有世界危機意識出現此刻就是默默在研發防守科際強大推出的商機一面倒
如果遇到 聲優 不是用自己的聲音呢?!XD
各國政府還不趕快封殺AI,這種危害世界的AI還放任那些AI公司害更多人